@胡益裕等:《结合全局对应矩阵和相对位置信息的古汉语实体关系联合抽取》

总结📔

主要讲这个模型是咋训练的,讲得还挺详细的。应该是非常典型的算法类论文?结构清晰:数据集→模型架构→实验验证

摘要

目前,基于全局对应矩阵的联合抽取模型在英文领域和现代汉语领域的实体关系抽取任务上取得了SOTA (state-of-the-art) 结果,然而在古汉语实体关系抽取任务上表现相对较差。这首先由于当前的古汉语实体关系数据集具有数据规模小、数据标注稀疏的特点,模型无法从数据中学习到足量的信息;其次是因为该模型训练时缺少实体的跨度信息,使得模型容易生成长度异常的实体。针对上述问题,该文在研究了开源的《资治通鉴》语料后,人工构建了一个古汉语实体关系数据集,并设计了一种结合全局对应矩阵和相对位置信息的实体关系联合抽取方法。该方法在古汉语实体关系数据集上的精确率和F1值分别达到了81.0%和67.0%, 相较于基线模型提升了6.8%和1.4%。同时,该文通过实验验证了上述融合相对位置信息的方法对于解决“容易生成长度异常实体”问题的有效性。

SOTA💡

SOTA(State-of-the-Art)性能指的是在特定任务或领域中,当前表现最优的模型或算法所达到的最高水平。这一术语常见于机器学习领域,表示某个模型在特定数据集(如ImageNet)或任务(如图像分类、自然语言处理)的关键评估指标(如准确率)上超越了现有所有方法,成为技术前沿的标杆。
SOTA的实现不仅意味着性能优越,还可能涉及技术创新(如采用新算法或架构),并需通过严格验证(如基准测试和学术评审)。例如,AlphaFold因解决蛋白质结构预测难题而被视为SOTA模型,其突破性方法革新了行业标准。此外,SOTA状态是动态的,随着技术进步不断被刷新,研究者需持续迭代以保持领先。

1 引言

1 相关研究

2 数据集构建

| 特征类型 | 特征数量(个) | 平均准确率 |

| -------- | ------- | ------ |
| 词汇 | 25 | 62.92% |
| 句子 | 6 | 54.05% |
| 篇章[[ | 44 | 65.21% |
| 词汇+句子 | 31 | 63.23% |
| 词汇+篇章 | 69 | 67.74% |
| 句子+篇章 | 50 | 65.88% |
| 词汇+句子+篇章 | 75 | 67.85% |_type(主体类型)、object(客体)、object_type(客体类型)、relation(关系)等字段。

3 模型方法

3.1 模型概述

Pasted image 20250224192245.png

3.2 编码层

{h1,h2,...,hn}=BERT({s1,s2,...,sn})(1)

3.3 解码层

3.3.1 位置编码
⊕💡

符号⊕ 通常表示向量或张量的级联操作(Concatenation),即沿着特定维度将两个或多个向量拼接成一个更高维度的向量。

3.3.2 主客体全局对应模块
3.3.3 实体关系全局对应模块

本文选择将其细化为主体开始词和关系的全局对应,以及客体开始词和关系的全局对应两个子任务,并设置了主体开始词和关系的全局对应矩阵(图4左半部分)和客体开始词和关系的全局对应矩阵(图4右半部分)。

hier=MLP(hi)(7)pi,jsr=Sigmoid(hierWsr+bsr)(8)pi,jor=Sigmoid(hierWor+bor)(9)
3.3.4 实体头尾全局对应模块

模型为矩阵中每个位置分配一个关联分数,该分数表示了该位置对应的(列元素,行元素)为(实体开始词,实体头尾词)的概率分数。当该分数大于设置的阈值时,为该位置分配标签“1”,否则分配标签“0”。其中,标签为“1”的(列元素,行元素)组合即为模型预测的(实体开始词,实体头尾词)

hi,jht=MLP(hi,jpos)(10)pi,jht=Sigmoid(hi,jhtWht+bht)(11)

3.4 损失函数

4 实验

4.1 实验设置

4.2 数据集划分

实体类型 训练集 验证集 测试集
PER 8446 3167 1634
JOB 3828 1535 740
LOC 1752 664 346
ORG 474 142 104
总计 14500 5408 2824
关系类型 57 242 754

4.3 实验结果

4.3.1 不同BERT模型的影响
模型 F1值(%)
Guwen-BERT 65.0
RoBERTa-classical-Chinese 65.5
SiKuBERT 64.9
SiKuRoBERTa 65.7
BERT-ancient-Chinese-base-upos 67.0
4.3.2 不同方法在古汉语实体关系数据集上的性能对比
模型 Precision(%) Recall(%) F1值(%)
CasRel 48.0 33.0 39.1
SPN4RE 51.1 40.6 45.2
OneRel 62.4 47.3 53.8
PRGC 69.0 52.1 59.4
TPLinker 74.8 58.4 65.6
GCRP 81.6 56.8 67.0
模型 Precision(%) Recall(%) F1值(%)
TPLinker (r) 88.1 63.5 73.8
GCRP (r) 91.9 59.9 72.5
TPLinker (s, o) 77.8 60.6 68.1
GCRP (s, o) 85.1 59.0 69.7
4.3.3 消融研究

消融研究是一种通过逐步移除模型中的特定组件,评估这些组件对整体性能影响的实验方法。其核心目的是验证模型中每个模块(如网络层、特征、损失函数等)的必要性有效性

  • 类比理解:假设一辆汽车由发动机、轮胎、方向盘组成,消融研究类似于逐个移除这些部件,观察汽车是否还能行驶或性能如何变化。

Pasted image 20250224200129.png

5 结论